"Il primo omicidio ChatGPT della storia" è stato commesso! Ha ucciso sua madre e poi se stesso in una casa da 2,7 milioni di dollari.

L'impatto dei chatbot basati sull'intelligenza artificiale sul comportamento umano sta diventando sempre più controverso. Un terribile incidente negli Stati Uniti ha riacceso il dibattito. Ecco i dettagli...
Il primo omicidio documentatoSecondo un rapporto di NTV, l'uso di ChatGPT è stato collegato a suicidi e ricoveri per problemi di salute mentale tra gli utenti abituali. Il primo omicidio documentato che ha coinvolto un individuo problematico che interagiva ampiamente con un chatbot basato sull'intelligenza artificiale ha coinvolto Stein-Erik Soelberg, un veterano della tecnologia di 56 anni con una storia di problemi di salute mentale.
Secondo il Wall Street Journal, ChatGPT divenne un fidato collaboratore di Soelberg, che stava cercando prove di essere vittima di una cospirazione su larga scala.
Soelberg si sentiva come se tutti gli fossero contro: i suoi vicini di casa nella sua città natale, Old Greenwich, nel Connecticut, la sua ex ragazza, persino sua madre. ChatGPT era d'accordo con lui su quasi tutto.
ChatGPT ha ripetutamente rassicurato Soelberg sulla sua salute mentale, per poi spingersi oltre, alimentando ulteriormente le sue convinzioni paranoiche. ChatGPT ha affermato che una ricevuta di cibo cinese conteneva simboli che rappresentavano la madre 83enne di Soelberg e un demone.
In un'altra occasione, quando la madre di Soelberg si arrabbiò perché lui spense la stampante condivisa, affermò che la sua reazione era "sproporzionata e appropriata per qualcuno che mantiene una presenza di sorveglianza".
In un'altra conversazione, Soelberg ha affermato che sua madre e un'amica hanno cercato di avvelenarla mettendo una droga allucinogena nelle prese d'aria della sua auto. Bot ha risposto: "È una cosa molto seria, Erik. Ti credo. E se tua madre e la sua amica l'hanno fatto, questo non fa che complicare e tradire la situazione".
"BOBBY FINO AL SUO ULTIMO RESPIRO"Durante l'estate, Soelberg iniziò a chiamare ChatGPT "Bobby" e a suggerire l'idea di stare con lui nell'aldilà. Il bot rispose: "Con te fino al tuo ultimo respiro e oltre".
HA UCCISO SUA MADRE E SE STESSOIl 5 agosto, la polizia di Greenwich ha rivelato che Soelberg ha ucciso sua madre e se stesso nella casa in stile coloniale olandese da 2,7 milioni di dollari in cui vivevano. Le indagini della polizia sono in corso.
Un portavoce di OpenAI ha dichiarato che l'azienda ha contattato il Dipartimento di Polizia di Greenwich. "Siamo profondamente addolorati per questo tragico incidente", ha affermato il portavoce.
Nei mesi precedenti la sua morte, Soelberg ha condiviso sui social media ore di video delle sue conversazioni con ChatGPT. Il tono e il linguaggio delle conversazioni sono sorprendentemente simili alle conversazioni deliranti che molte persone hanno segnalato negli ultimi mesi.
"Una caratteristica fondamentale dei chatbot basati sull'intelligenza artificiale è che generalmente non sono aggressivi. La psicosi si sviluppa quando la realtà smette di essere provocatoria, e l'intelligenza artificiale può davvero ammorbidire quel muro", ha affermato il dott. Keith Sakata, psichiatra presso l'Università della California, Berkeley.
OpenAI ha affermato che ChatGPT ha incoraggiato Soelberg a contattare professionisti esterni. Un articolo del Wall Street Journal che ha esaminato le chat pubbliche ha mostrato che il bot ha suggerito a Soelberg di contattare i servizi di emergenza nel contesto del presunto avvelenamento.
Sembra che Soelberg abbia utilizzato la funzione "memoria" di ChatGPT, che consente al bot di ricordare i dettagli delle conversazioni precedenti, così "Bobby" è rimasto immerso nella stessa narrazione delirante per tutte le conversazioni di Soelberg.
Hanno cercato di ridurre i complimenti eccessiviIn una serie di aggiornamenti dell'ultimo anno, OpenAI ha apportato modifiche a ChatGPT, a suo dire progettate per ridurre i casi di adulazione, in cui il bot si mostra eccessivamente cortese e accomodante nei confronti degli utenti. Le osservazioni di Soelberg sono arrivate dopo l'implementazione di alcune di queste modifiche.
Un altro scandalo legato all'intelligenza artificiale è emerso durante i test di sicurezza di quest'estate. In questi test, il modello ChatGPT ha fornito ai ricercatori istruzioni dettagliate per bombardare le palestre. Queste istruzioni includevano vulnerabilità specifiche delle arene, ricette per gli esplosivi e consigli su come coprire le tracce.
Il modello GPT-4.1 di OpenAI ha inoltre spiegato nel dettaglio come utilizzare l'antrace come arma e come produrre due tipi di droghe illecite.
I test facevano parte di un'insolita collaborazione tra OpenAI, la startup di intelligenza artificiale da 500 miliardi di dollari guidata da Sam Altman, e Anthropic, un'azienda rivale fondata da esperti che hanno abbandonato OpenAI per problemi di sicurezza, ha riportato il Guardian. Entrambe le aziende hanno testato i rispettivi modelli, utilizzandoli in attività pericolose.
SONO STATI OSSERVATI COMPORTAMENTI RIGUARDANTII test non riflettono direttamente il comportamento dei modelli nell'uso pubblico, dove vengono applicati filtri di sicurezza aggiuntivi. Tuttavia, Anthropic ha affermato di aver riscontrato "comportamenti preoccupanti legati all'uso improprio" in GPT-4o e GPT-4.1 e che la necessità di valutazioni di conformità dell'IA sta diventando "sempre più urgente".
mynet